AI行业盛会大咖云集!Sam Altam、“AI教父”,一文看懂最新观点

AI行业盛会大咖云集!Sam Altam、“AI教父”,一文看懂最新观点

这一届的智源大会,依然是星光熠熠,学术感爆棚。众大咖激辩超级AI,思想碰撞火花四射,依然是绝不能错过的一届AI春晚!

这场人工智能年度巅峰盛会上,有OpenAI、DeepMind、Anthropic、HuggingFace、Midjourney、Stability AI等耳熟能详的明星团队,有Meta、谷歌、微软等做出征服全世界产品的大厂,有斯坦福、UC伯克利、MIT等世界顶尖学府。

GPT-4、PaLM-E、OPT、LLaMA等重要工作的作者悉数出席,为我们讲解研究成果。这场大会堪称专业深度与创意启发兼具,每个话题都被探讨到极致。

而把大会推向高潮的,无疑是图灵奖得主Yann LeCun、Geoffrey Hinton、以及OpenAI创始人Sam Altman的演讲了。

这几位超重磅大佬的亮相,可谓是亮点满满。

Geoffrey Hinton:超级AI风险紧迫

在刚刚结束的论坛闭幕主题演讲中,图灵奖得主、深度学习之父Hinton为我们构想了一个值得深思的场景。

演讲开始,Hinton发问「人工神经网络是否比真正的神经网络更聪明」?

是的,在他看来,这可能很快就会发生。

正如前段时间,Hinton离职谷歌,对辞职理由一言蔽之。他直言对自己毕生工作感到后悔,并对人工智能危险感到担忧。他多次公开称,人工智能对世界的危险比气候变化更加紧迫。

同样,在智源大会上,Hinton再次谈及AI风险。

如果一个在多台数字计算机上运行的大型神经网络,除了可以模仿人类语言获取人类知识,还能直接从世界中获取知识,会发生什么情况呢?

显然,它会变得比人类优秀得多,因为它观察到了更多的数据。

这种设想并不是天方夜谭,如果这个神经网络能够通过对图像或视频进行无监督建模,并且它的副本也能操纵物理世界。

在最极端的情况下,不法分子会利用超级智能操纵选民,赢得战争。

如果允许超级智能自行制定子目标,一个子目标是获得更多权力,这个超级AI就会为了达成目标,操纵使用它的人类。

张宏江与Sam Altman巅峰问答:AGI或将十年内出现

Sam Altman也通过视频连线现身了。这是ChatGPT爆火之后,Sam Altman首次在中国公开演讲。

精彩摘要:

- 当下AI革命影响如此之大的原因,不仅在于其影响的规模,还有进展的速度。这同时带来红利和风险。

- 随着日益强大的AI系统的出现,加强国际间的通力合作,建立全球信任是最重要的。

- 对齐仍是一个未解决的问题。GPT-4在过去8个月时间完成对齐工作,主要包括扩展性和可解释性。

演讲中,Altman多次强调全球AI安全对齐与监管的必要性,还特别引用了《道德经》中的一句话:

千里之行,始于足下。

在他看来,人工智能正以爆发式的速度发展,未来十年可能就会出现超强AI。

因此,需要推进AGI安全,加强国际间的通力合作,并在相关的研究部署上对齐最为重要。

Sam Altman认为,国际科技界合作,是当下迈出建设性步伐的第一步。特别是,应该提高在AGI安全方面技术进展的透明度和知识共享机制。

另外,Altman提到,目前OpenAI的主要研究目标集中在AI对齐研究上,即如何让AI成为一个有用且安全的助手。

一是可扩展监督,尝试用AI系统协助人类监督其他人工智能系统。二是可解释性,尝试理解大模型内部运作「黑箱」。

最终,OpenAI的目标是,训练AI系统来帮助进行对齐研究。

演讲结束后,智源研究院理事长张宏江与Sam Altman开启了隔空对话,一起探讨了如何让AI安全对齐的难题。

当被问及OpenAI是否会开源大模型,Altman称未来会有更多开源,但没有具体模型和时间表。

另外,他还表示不会很快有GPT-5。

会后,Altman发文对这次受邀来智源大会演讲表示感谢。

LeCun:依然是世界模型的拥趸

在头一天发言的又一位图灵奖得主LeCun,仍然继续推行自己的「世界模型」理念。

对于AI毁灭人类的看法,LeCun一直表示不屑,认为如今的AI还不如一条狗的智能高,还没有发展出真正的人工智能,这种担心实属多余。

他解释道:AI不能像人类和动物一样推理和规划,部分原因是目前的机器学习系统在输入和输出之间的计算步骤是基本恒定的。

如何让机器理解世界是如何运作的,像人类一样预测行为后果,或将其分解为多步来计划复杂的任务呢?

显然,自监督学习是一个路径。相比强化学习,自监督学习可以产生大量反馈,能够预测其输入的任何一部分。

LeCun表示,自己已经确定未来几年人工智能的三大挑战,就是学习世界的表征、预测世界模型、利用自监督学习。

而构建人类水平AI的关键,可能就是学习「世界模型」的能力。

其中,「世界模型」由六个独立模块组成,具体包括:配置器模块、感知模块、世界模型、cost模块、actor模块、短期记忆模块。

他认为,为世界模型设计架构以及训练范式,才是未来几十年阻碍人工智能发展的真正障碍。

被问到AI系统是否会对人类构成生存风险时,LeCun表示,我们还没有超级AI,何谈如何让超级AI系统安全呢?